Suchergebnisse
Resultate 21 bis 30 von 598 (max. Score: 1)
Deep_Instinct_Beyond_the_Endpoint_Datasheet (pdf)
Deep Instinct Beyond the EndpointDATASHEETThe endpoint is not your only attack vector; threat
actors are continually searching for new ways to infiltrate your hybrid environment. Files stored
in the cloud, uploaded into your custom applications, and downloaded from the internet all expand
your attack surface and increase the risk of a breach. Through the power of deep learning, Deep
Instinct meets the attacker earlier to prevent malware from being uploaded into your environment —
without requiring agents. Using our deep learning static analysis, Deep Instinct scans in-transit
files to ensure the integrity of your local, private, and public cloud storage, as well as your
custom applications, and prevents malware at the web gateway – reducing latency and stopping more
threats before they hit your endpoints. Deep Instinct preserves the integrity of the files in your
hybrid environment to ensure business continuity, improve SOC efficiency, and increase compliance
by preventing known and unknown threats including ransomware, zero-day threats, and file- and
script-based attacks, earlier and faster. Deep Instinct for Cloud With the acceleration of digital
transformation, enterprises are experiencing a high volume of file transfers into and out of their
public and private cloud storage. Public cloud providers are responsible for the security of the
cloud, but you are responsible for the security of what is stored in the cloud. Preventing
malicious content from entering cloud storage is critical to lowering the risk that an infected
file could spread malware. Deep Instinct prevents malicious files from uploading to, or downloading
from, your public or private cloud storage. Prevent Attacks Across Malicious File Uploads and
Downloads for Cloud, Web Gateways and Applications WORLD'S ONLY DEEP LEARNING BASED CYBERSECURITY
SOLUTIONPREVENTS>99% KNOWN, UNKNOWN, ZERO-DAY THREATSONLY 1-2 UPDATES NEEDED PER YEARPREVENTS
THREATS IN<20MSChallenge: Files stored in the cloud could be malicious Infected files stored
in the public or private cloud increase risk of a breach Opportunity: Ensure the integrity of the
files stored in the cloud Reduce the risk that malware-infected files are a hidden source of
infection Prevent malware from spreading to production systems upon download Lower the
probability of a weaponized file executing a ransomware or other attack upon download 2 Deep
Instinct Beyond the EndpointDeep Instinct for Applications To meet the needs of your business, your
organization has custom-built or modified applications. Applications that require a high number of
files to be uploaded and downloaded by employees or customers pose a potential risk. A challenge
for organizations who modify or develop their own custom applications is that they often lack
consistent security standards. Deep Instinct scans in-transit files to ensure that they are
uploaded through your custom applications and downloaded to your customers free of
malware.Challenge: Weaponized files pose risk to users and customers Increased risk from both
internal and external file uploads and downloads through your custom applications Opportunity:
Decrease risk, reduce attack surface Meet the scale requirements for scanning high- volume
applications for malware without introducing latency Prevent the introduction of malware into
your production environments Increase assurance that your applications will not be a source of
infection for your end users or customersAction taken based on rule (delete/quarantine)File upload
to Cloud RespositoryFile AllowedREST APILocal file server, Private or Public CloudManagement
ConsoleBenefits Prevents malicious files from uploading into public or private cloud storage.
Keeps malware infected files from reaching production systems. Improves existing security
solutions by reducing burden on the endpoint.How it works: When a file is uploaded to a public or
private cloud, or a local file server, a trigger will call Deep Instinct to scan the file and
return a verdict of malicious or benign and the file is either blocked or allowed. Benefits
Reduces latency associated with traditional AV file scanning. Provides consistency of security
standards across all applications. Scales to the needs of high volume transaction
applications.How it works: When a file is uploaded through an application, a trigger calls Deep
Instinct to scan the file. If the file is deemed malicious the file is blocked, and according to
the policy set by the organization, the file will be deleted or sent to a sandbox.Deep Instinct
Beyond the EndpointDeep Instinct for Web Gateways Unknown malware bypasses traditional AV defenses
at the web gateway and increases the reliance on the endpoint to catch threats. Existing controls
have a low probability of preventing never-before-seen threats and increase latency thus adding an
.additional burden on security analysts who are already overwhelmed with alertsIf you are currently
using a web proxy to filter traffic, Deep Instinct will scan files to prevent users from accessing
malicious files from the internet. Deep Instinct, deployed with ICAP, will prevent the download of
malicious files from the web faster and more accurately using our deep learning static engine to
catch >99% of known and unknown threats. Challenge: Legacy AV and ICAP solutions will not stop
unknown threats Threats missed at the proxy are then dependent upon endpoint
detectionOpportunity: Reduce the burden on the endpoint Reduce the operational and investigation
cost of existing endpoint solution Reduce latency associated with file scans to improve user
experience Provide greater protection with your existing infrastructureBenefits Prevents a
greater number of known and unknown threats at the web gateway. Improves end user experiences by
reducing latency associated with Legal AV solutions. Reduces malware at the endpoint and the
burden on security analysts overwhelmed with alerts.How it works: Your internal user requests
access to a file from the internet. That request first hits the proxy and is then offloaded to the
ICAP Server to make the benign vs malicious decision instantaneously and the file is either
returned or denied. The end user will see the request come back or see a request denied
message.Deep Instinct takes a prevention-first approach to stopping ransomware and other malware
using the world’s first and only purpose built, deep learning cybersecurity framework. We predict
and prevent known, unknown, and zero-day threats in <20 milliseconds, 750X faster than the
fastest ransomware can encrypt. Deep Instinct has >99% zero-day accuracy and promises a <0.1%
false positive rate. The Deep Instinct Prevention Platform is an essential addition to every
security stack— providing complete, multi-layered protection against threats across hybrid
environments.www.deepinstinct.com info@deepinstinct.com© Deep Instinct Ltd. This document contains
proprietary information. Unauthorized use, duplication, disclosure or modification of this document
in whole or in part without written consent of Deep Instinct Ltd. is strictly prohibited.Adobe
InDesign 16.4 (Macintosh) Adobe PDF Library 16.0
Deep_Instinct_Endpoint_Security_Datasheet (pdf)
Deep Instinct for EndpointDATASHEETToday’s adversaries have time on their side—you don’t.From the
moment malware executes on the endpoint, it’s a race against time to stop it. Traditional security
solutions struggle to detect and respond quickly to unknown threats, taking minutes, hours, or even
days—during which time the malware has succeeded, and your environment has been breached. Legacy
AV, signature, rule, and heuristics-based tools can prevent known attacks but are largely
ineffective against unknown and zero-day threats.Deep Instinct prevents ransomware and other known,
unknown, zero-day threats in <20ms – before an attack can execute on the endpoint.With a
lightweight, agent-based solution, Deep Instinct for Endpoint prevents >99% of known and unknown
malware, dramatically reducing false positives, improving the effectiveness of your existing
security solutions, and lowering your organization’s overall risk. Your security teams will spend
less time responding to benign alerts and more time focusing on higher-value priorities like threat
hunting, patching, and hardening your defenses.The Deep Instinct Difference: Deep Learning vs
Machine LearningEndpoint Detection and Response (EDR) solutions rely on basic machine learning.
This approach requires the attack to begin executing before it can be detected. Ransomware, for
example, begins to encrypt in 15 seconds, but the average EDR solution can take minutes or hours to
detect —too long to prevent a breach. By the time EDR tools detect an attack, droppers and
artifacts have already installed on your network endpoints.With multiple deep learning engines,
Deep Instinct’s multi-layered approach to prevention provides the highest efficacy and the fastest
detection and prevention. This applies to both known and never-before-seen malware, as well as
fileless, in-memory, and script-based attacks. Deep Instinct can also detect suspicious behavior to
improve your threat hunting, investigation, and root- cause analysis.Preventing Unknown Attacks in
<20msProduct Benefits Prevents known, unknown, and zero-day threats in <20ms Saves security
teams time by dramatically reducing false positives to <0.1% Ensures malware does not execute
on your endpoint Stops multi-stage, complex ransomware attacks Enacts layered prevention against
the most complex attacks Protects against adversarial AI Does not require cloud lookupWORLD'S
ONLY DEEP LEARNING BASED CYBERSECURITY SOLUTIONPREVENTS>99% KNOWN, UNKNOWN, ZERO-DAY THREATSONLY
1-2 UPDATES NEEDED PER YEARPREVENTS THREATS IN<20MS2 Deep Instinct for EndpointDeep Instinct for
Endpoint The moment an attacker attempts to land a malicious payload on their target endpoint, Deep
Instinct for Endpoint prevents it— before it executes. Deep Instinct has pioneered the use of deep
learning in cybersecurity to prevent known and unknown malware, zero-day exploits, ransomware, and
common script-based attacks for the broadest range of file types, faster and with fewer false
positives versus security tools that rely on signatures, heuristics, or basic machine
learning.Predict and Prevent: Pre-execution Static Analysis Prevent >99% of known and unknown
malware including ransomware, zero-day, file-based, and script-based attacks with Deep Instinct’s
static analysis engine. Known malware Unknown malware & variantsScript Control Coverage
PowerShell JavaScript VBScript Macros HTML applications (HTA files) rundll32On-Execution:
Dynamic and Behavioral Analysis Using a multi-layered approach to prevention, Deep Instinct employs
additional layers of dynamic and behavioral analysis to detect and automate responses to the most
advanced threats, including the following: Fileless attacks Remote Code Injection (Reflective
.NET, Reflective DLL) Known, Unknown Shellcode Credential Theft Anti-AMSI Bypass Credential
Dumping File-based attacks Zero-day exploits Ransomware Common Scripts Spyware, including
banking trojans, keyloggers, and droppers Advanced scripts like unknown shellcode Multi-stage
attacks Active Adversarial AI attacks In addition, Deep Instinct provides context to understand
the severity and tactics of a threat: Alerting on suspicious events for threat hunting Mapping
to MITRE ATT&CK for threat context Conducting reputational analysis Post-Execution: Automated
Analysis Deep Instinct includes optional automated and reputational analysis which can override
decisions based on policy and imported allow lists.Product ArchitectureStatic Analysis File Types
PE PDF Office Macro RTF SWF JAR TIFF Fonts Mach-O ELF APK JTD HWP
LNKManagement ConsoleEvent reporting and details formonitoring and alertingEDR SIEM SOARReputation
EngineBrainRe st A PI , S ys lo g SMTPDeep Instinct LabsDeep Instinct Neural NetworkPrevented
Malware <20msENDPOINTSDeep Instinct for EndpointSupported Virtual EnvironmentsAmazon
WorkspacesCitrix Hypervisor and XenDesktopVMware ESX and HorizonMicrosoft Hyper-VAutomate Responses
and Integrate with SIEM, EDR, SOAR All prevented events are sent to the Deep Instinct Console and
malware is instantly classified to provide context into the attempted attack. Organizations can
enact a manual or automated response to achieve the following: Isolate the machine
Quarantine/Delete/Restore Update policy: allow and restore (Hash, Certificate, Folder, Script,
Process) Supported SystemsWindowsmacOsAndroidChrome OSLinuxDeep Instinct takes a prevention-first
approach to stopping ransomware and other malware using the world’s first and only purpose built,
deep learning cybersecurity framework. We predict and prevent known, unknown, and zero-day threats
in <20 milliseconds, 750X faster than the fastest ransomware can encrypt. Deep Instinct has
>99% zero-day accuracy and promises a <0.1% false positive rate. The Deep Instinct Prevention
Platform is an essential addition to every security stack— providing complete, multi-layered
protection against threats across hybrid environments.www.deepinstinct.com info@deepinstinct.com©
Deep Instinct Ltd. This document contains proprietary information. Unauthorized use, duplication,
disclosure or modification of this document in whole or in part without written consent of Deep
Instinct Ltd. is strictly prohibited. Terminate the process Clean the registry to remove
persistence Send prevented events to a sandbox for further analysisDeep Instinct integrates with
your SIEM, SOAR, EDR or other existing security tools via REST API, Syslog, and SMTP to improve
investigation, remediation, and threat hunting.Additional Features Deep Instinct combines our
leading cyber-prevention capabilities with intuitive feature sets that help our customers save time
and work smarter. Professional UI and Dashboard Our easy-to-navigate and highly intuitive
management console can be customized to present what is most important to the authorized end
user.Built-In Reporting Automated and ad hoc threat and trend reporting.True Multi-Tenancy Native
multi-tenant solution for Partners, MSPs, and MSSPs keeps all data safe and isolated from
cross-contamination and administers multiple environments from one, centralized console.Enhanced
Security Full audit logging/recording of all admin actions, role-based access control, 2FA, and
SAML integration. Group-Based Policy Configuration of security policies based on a variety of
manual or automated criteria, including naming convention, IP, AD, OU, and more.Adobe InDesign 16.4
(Macintosh) Adobe PDF Library 16.0
Deep_Instinct_Prevention_Platform_Solution_Brief (pdf)
SOLUTION BRIEFThere are 350,000 new pieces of malware discovered daily—and this number is growing
exponentially. Zero-day, ransomware, filed-based, fileless, supply chain, and adversarial AI
attacks continue to morph and evade detection, making it exceedingly difficult to prevent bad
actors from infiltrating your hybrid network. An innovative prevention-first approach—made possible
by deep learning—is the path forward to take back control. With work-from-anywhere becoming the new
normal combined with the continued evolution of digital transformation and distributed networks,
computing has moved closer to the edge. Protecting your endpoints has never been more important.
But it’s not just the endpoint. Bad actors can infect systems through files stored in the cloud,
files uploaded through applications and downloaded to customers, and files your end users are
downloading from the internet. Legacy AV will only prevent known threats. And EDR alone is not
enough to stop the unknowns before they are executed on your network. We must rethink our approach
to prevention. The Deep Instinct Prevention Platform The Deep Instinct Prevention Platform stops
known, unknown, and zero-day threats with the highest accuracy and lowest false-positive rate in
the industry. For your organization, this means reduced risk, greater SOC efficiency, and the
knowledge that attackers have lost their advantage. With >99% known, unkno wn, and zero-day
threat accuracy, a guaranteed <0.1% false positive rate, plus a $3M ransomware warranty backed
by Munich Re, the Deep Instinct Prevention Platform meets the promise of true prevention. Deep
Instinct prevents threats prior to execution, unlike detection and response solutions that look for
behaviors after the attacker has already installed droppers and artifacts on your network. Deep
Instinct’s Prevention Platform reduces the risk of a breach by meeting the attackers earlier and
stopping threats 750x faster than the fastest known ransomware can begin to encrypt. Deep Instinct
prevents attacks at the endpoint with end-to-end static and multi-layered dynamic analysis. To meet
the attacker even earlier, Deep Instinct also prevents malware beyond the endpoint by scanning the
in- transit files of your custom applications and workflows, as well as local, private, and public
cloud storage and web gateways to prevent the upload or download of malicious files while ensuring
the integrity of your environment. Deep Instinct Powered by Deep Learning Deep Instinct is the only
cybersecurity company leveraging a deep learning-based neural network that autonomously learns and
dynamically improves as it’s fed more data. Deep learning is the most advanced form of AI, inspired
by the brain’s ability to think and learn over time. Our vast neural network has been trained for
more than five years on hundreds of millions of files to autonomously prevent threats. Deep
Learning differs from basic machine learning in several critical ways: Basic machine learning
requires a human domain expert, making it slow and prone to error, and is only trained on 2% of
available data. Deep learning trains on 100% of available raw data and can make non-linear
correlations of the data automatically. With deep learning-based neural networks specifically
architected for cybersecurity, decisions are made faster, more accurately, and with much greater
efficacy. A deep learning model is self-sufficient and does not require frequent cloud updates or
constant human intervention. Ultimately, deep learning is what will enable organizations to make
prevention a reality, predicting and stopping threats before they execute and compromise your
environment.STOP RANSOMWAREBEFORE IT ENCRYPTSPREVENTS>99% KNOWN, UNKNOWN, ZERO-DAY
THREATSGUARANTEES <0.1%* FALSE POSITIVE RATE<20MS MALWARE PREVENTIONDeep Instinct Prevention
Platform*Applies to endpoint only. Integrates with existing security solutions to improve
efficiency, effectiveness, and focus on what really matters – stopping attacks. Reduces burden on
security teams to sift through false positives Improves threat hunting capabilities with
high-fidelity alerts and suspicious activity rating Product DifferentiatorsDeep Instinct Prevention
Platform The Deep Instinct Prevention PlatformDeep Instinct: Beyond the EndpointIn-transit file
scanning Deep Instinct understands that the endpoint is not your only attack vector. Malicious
files can unknowingly be uploaded to your hybrid, distributed environment, or downloaded to your
customers. Deep Instinct prevents malicious files by scanning files in-transit to ensure the
integrity of your local, private, and public cloud storage and your custom applications, and
prevents malicious file downloads at the web gateway. Deep Instinct for Cloud Infected files stored
in public or private clouds increase the risk of a breach upon download. Deep Instinct prevents
malicious files from uploading to, or downloading from, your public or private cloud storage. Deep
Instinct for Applications Your organization is at increased risk from both internal and external
file uploads through your custom applications. Deep Instinct scans in-transit files to ensure that
the files uploaded through your custom applications and downloaded to your customers are free of
malware. Deep Instinct for Web Gateways Legacy AV and ICAP solutions will not stop unknown threats
at the web gateway. If you are currently using a web proxy to filter traffic, Deep Instinct will
scan files to prevent users from accessing malicious files from the internet. Deep Instinct
connects with the ICAP protocol to become the ICAP server and uses our deep learning static engine
to catch >99% of both known and unknown malware.Deep Instinct for Endpoint Deep Instinct for
Endpoint provides end-to-end, multilayered security. The moment an attacker attempts to land a
malicious payload on their target endpoint, Deep Instinct prevents it – before it executes
Pre-execution: Static Analysis Prevent >99% of known and unknown malware, including ransomware,
zero-day, filed-based, and script-based attacks with Deep Instinct’s static analysis engine.
Known malware Unknown malware & variants File-based attacks On-execution: Dynamic and
Behavioral Analysis Using a multi-layered approach to prevention, Deep Instinct employs additional
dynamic analysis layers to detect and automate responses to the most advanced threats, including
the following: Fileless attacks like malicious code injection and credential theft Advanced
scripts like unknown shellcode Multi-stage attacks Active Adversarial AI attacks In addition,
Deep Instinct provides additional context to understand the severity and tactics of a threat,
including: Suspicious events for threat hunting MITRE ATT&CK mapping Post-Execution:
Automated Analysis In the last layer of automated analysis, Deep Instinct can override prevent
decisions based on reputation or policy. All prevented events are sent to the Deep Instinct console
and can be integrated with your SIEM, SOAR, EDR, or other security solutions via REST API, Syslog,
or SMTP. Zero-Day Ransomware Common Scripts © Deep Instinct Ltd. This document contains
proprietary information. Unauthorized use, duplication, disclosure or modification of this document
in whole or in part without written consent of Deep Instinct Ltd. is strictly
prohibited.www.deepinstinct.com info@deepinstinct.comAdobe InDesign 16.4 (Macintosh) Adobe PDF
Library 16.0
Digitalisierung mit Wow-Effekt_Wirtschaft zwischen Nord- und Ostsee - April 2021 (pdf)
54 Verlagsspecial 04/21VerlagsspecialVerlagsspecial VerlagsspecialVerlagsspecial
Verlagsspecialspeichern. Zu den IT-Systemen gehören Endgeräte, welche die Nutzer verwenden, wie zum
Beispiel PCs, Notebooks, Tablets und Smartphones. Dieser Teil der IT-Sicherheit wird als Endpoint
Security bezeichnet. Und auch die Betriebssysteme und Anwendungen, die auf den Endgeräten laufen,
sollten in der IT-Sicherheit be- rücksichtigt sein, mittels Betriebssystemsicherheit und
Applikationssicherheit. Der Schutz der IT-Systeme vor Ausfall und die notwendige Belastbarkeit der
IT-Syste- me ist maßgeblich für die Aufrechterhaltung des Ge- schäftsbetriebs.Sicher bis ins Netz
Darüber hinaus schützt die IT-Sicherheit die Vernet-zung bis ins Internet. Die Endgeräte und
Anwendungen sind heute in der Regel über Netzwerke miteinander verknüpft. Die Vernetzung kann dabei
über das firme- ninterne Netzwerk hinausgehen und Verbindungen über das Internet einschließen. An
dieser Stelle muss an Internetsicherheit und an Cloud-Sicherheit gedacht werden, da viele
Anwendungen und IT-Ressourcen in- zwischen als Cloud-Dienst bezogen werden.Cyber-Bedrohungen, wie
etwa Hackerangriffe auf IT- Systeme, müssen bei der Planung und Umsetzung der IT-Sicherheit
ebenfalls mit bedacht werden. Dabei be- treffen Cyberrisiken Unternehmen aller Art, Größe und
Branchen. Schäden durch Hackerangriffe oder unzurei- chende Datensicherung, aber auch
Wirtschaftsspiona- ge können existenzbedrohend sein. Letztendlich wird auch der Nutzer selbst durch
die IT-Sicherheit geschützt.Datensicherheit nicht gleich IT-Sicherheit Im Gegensatz zur
Datensicherheit geht es in der IT-Sicherheit nicht nur um personenbezogene Daten, für die der
rechtlich geforderte Datenschutz Sicherheits- maßnahmen verlangt. Es geht vielmehr um alle Arten
von Informationen, die es zu schützen gilt.„Speziell im Vergleich von kleinen mit mittelgroßen
Unternehmen (KMU) besteht eine Diskrepanz zwischen der Bedeutung und tatsächlicher Umsetzung von
IT- Sicherheit. Darüber hinaus kann eine oftmals vorhan- dene Unsicherheit von KMU über bestehende
Risiken und angemessene Lösungen festgestellt werden. Un- ter anderem führen Verantwortliche an,
dass sie ange- sichts vorhandener hochspezifischer Lösungen oftmals Schwierigkeiten haben, die für
sie relevanten Angebote herauszufiltern“, heißt es auf der BITMi-Website unter Verweis auf die
WIK-Studie vom Januar 2020.In der Digitalisierung steckt ein großes Potenzial, das ausgeschöpft
werden will. Vor allem kleine und mittel- ständische Unternehmen können davon profitieren und
Möglichkeiten für Wachstum und Innovation nutzen.VerlagsspecialmIT Sicherheit zu HauseDigitales
Arbeiten ist durch die Pandemie Grundvoraussetzung für das Fort-bestehen vieler Unternehmen
geworden. Nun wird das „Homeoffice“ auch von der Politik gefordert, bringt neue Flexibilität,
vereinfacht die Work-Life-Balance und schont die Umwelt durch den Wegfall des Arbeitsweges.
Elementarer Bau-stein dafür ist ein ganzheitliches Modern-Workplace-Konzept in Verknüpfung
miteffizienter Kommunikation über modernste Collaboration Tools. Unabhängig vonStandort und
Endgerät bedarf es einer zuverlässigen Erreichbarkeit. Moderne Zusammenarbeit setzt einfaches
Teilen und zeitgleiches Bearbeiten von Infor-mationen und Daten sowie Abstimmungsmöglichkeiten in
Chats, Channels und per Video voraus, wobei vertrauliche Daten stets vor Angriffen durch ein
Se-curity-Konzept geschützt sein müssen – insbesondere bei der Nutzung privater Endgeräte als
Arbeitsmittel. Wir raten zur Nutzung von Zugriffsberechtigungen, sicheren Verbindungen,
verlässlichen Backup-Lösungen und der Sensibilisierungder Mitarbeiter für Datenschutz und
-sicherheit. Als Partner für Digitalisierung steht IT-KONTOR für individuelle Lösungen durch den
Einsatz modernster Technik und breitem Know-how. Unser Portfolio reicht von Beratung, über
(Sicherheits-) Lösungen, das Angebot eigener Cloud-Pro-dukte sowie Hard- und Softwarebeschaffung.
Als Teil der Dierck Unternehmens-gruppe gewährleisten wir ein flächendeckendes Servicenetz und
ganzheitliche Lösungen.Brauchen Sie Unterstützung bei der Bereitstellung sicherer mobiler
Arbeits-plätze oder weiteren Digitalisierungsmöglichkeiten in Ihrem Unternehmen? Wir beraten Sie
gerne – auch aus dem Homeoffice.IT-KONTOR GmbH Neustadt 56 • 24939 Flensburg Tel.: +49 461 318900-0
E-Mail: info@it-kontor.com www.it-kontor.com ww.facebook.com/it.kontorVon Watt bis WLAN - Ihr
Partner für DigitalisierungEin Unternehmen derAnzeige830005167041 IT-Kontor_185x128.indd
1830005167041 IT-Kontor_185x128.indd 1 05.03.21 09:4805.03.21
09:48VerlagsspecialVerlagsspecialVerlagsspecialDigitalisierung mit Wow-Eff ektEntwickeln Sie mit uns
erfolgreich Ihr digitales Produkt. Schaff en Sie Begeisterung bei Ihren Kunden und Ihrem
Team.consist.de/agil830005194041 Consist_185x84.indd 1830005194041 Consist_185x84.indd 1 11.03.21
08:4711.03.21 08:47AnzeigeDigitalisierung mit Wow-Effekt AnzeigeDigitalisierung mit Wow-Effekt
Geschäftsprozesse zu digitalisieren bzw. neue Geschäftsideen digital umzuset- zen, ist nicht nur
ein Thema für Groß- unternehmen und Konzerne, sondern ist auch für viele mittelständische Unter-
nehmen von zentraler Bedeutung. Ein agiles Vorgehen hat sich bewährt, wie viele Praxisbeispiele
zeigen. Consist bietet Unternehmen in diesem Umfeld langjährige Erfahrung und das notwen- dige
Know-how in Methodiken und Technologien für Digitalisierungspro- jekte, die begeistern und
überzeugen.Auf der einen Seite stehen der Wille und die wirtschaftliche Notwendigkeit, gewohnte
Geschäftsprozesse digital zu überdenken. Auf der anderen Seite steht die Frage nach dem Risiko des
finanziellen Investments einer digitalen Umsetzung. Agiler Ansatz für schnelle Ergebnisse In diesem
Spannungsfeld bietet sich eine iterative agile Vorgehensweise bei der Umsetzung geradezu an. Nach
einem ersten Ideen-Workshop lässt sich in enger Abstimmung aus der Idee in nur 1 bis 2 Wochen ein
erstes funktionsfähi- ges Software-Produkt entwickeln. Ein so wörtlich erstes „minimal lauffähiges
Pro- dukt“ (Minimum Viable Product) ist die erste minimal funktionsfähige Iteration eines Produkts.
Es wird entwickelt, um mit minimalem Aufwand den Kunden-, Markt- oder Funktionsbedarf zu decken und
handlungsrelevantes Feedback zu gewährleisten.Digitale Ideen testen Mit diesem MVP kann die
digitale Pro- duktidee kurzfristig und einfach am Markt getestet werden. Unternehmen erhalten
schnell und effizient Feedback ihrer Nut- zer, um so ihre Idee den Bedürfnissen ihrer Kunden und
des Marktes anzupassen und weiterzuentwickeln. Durch die geringe Anfangsinvestition minimieren
Unterneh- men bei diesem Vorgehen ihr Risiko bei gleichzeitig maximalem Anwender-Feed- back und
kurzer Entwicklungsdauer. Hierbei ist die Einbindung des Auftrag- gebers in den Entwicklungsprozess
ein integraler Bestandteil jedes Projektes. Kommunikation ist eine Grundvorausset- zung für eine
erfolgreiche Zusammen- arbeit. Ein agiles Vorgehen bedeutet, dass der Entwicklungspartner in kurzen
vorde- finierten Iterationsschritten (Sprints), normalerweise alle 2 Wochen, dem Auf- traggeber
einen Einblick in den aktuellen Entwicklungsstand in Form von Demons- trationen oder ausführbaren
Prototypen präsentiert. Daraus gewonnenes Feed- back fließt direkt in den weiteren Ent-
wicklungsprozess ein. Dadurch hat der Auftraggeber zu jedem Zeitpunkt trans- parenten Einblick in
das Projekt und kann Änderungswünsche jederzeit äußern. Begeisterung wecken Dieses iterative
Vorgehen versteht sich als Rahmenmodell und ist darauf aus- gerichtet, mit minimalen Formalismen,
in kleinen Teams und in kurzen Arbeits- phasen funktionsfähige Software zu pro-duzieren. Nur wenn
Digitalisierungspro- jekte Begeisterung bei Kunden und Mit- arbeitenden hervorrufen und einen
echten Wow-Effekt bewirken, sind sie auf Dauer erfolgreich und erlangen Akzeptanz. Consist bietet
als Entwicklungspartner mit langjähriger Erfahrung Werkzeuge und Methodiken an, die eine
erfolgreiche Umsetzung garantieren. So unterschied- lich einzelne Projekte auch sind, so bietet
eine iterative, enge Zusammenarbeit die wesentliche Grundlage für einen beider- seitigen Erfolg.
Praxiserfahrung Zahlreiche Projekte, wie z. B. ein Rech- nungsportal für Debitoren und Kredito-
ren, ein Portal für über 40.000 Mitglie- der und Kunden sowie die Umsetzung einer innovativen
Geschäftsidee eines Spin-Offs im IoT-Bereich konnten so im letzten Jahr erfolgreich umgesetzt wer-
den. Die positive Erfahrung mit unseren Kunden auch in Zeiten der Corona-Pan- demie zeigt, dass
sich diese Prozesse reibungslos ebenfalls online und inter- aktiv durchführen lassen. Nutzen auch
Sie die Zeit und entwickeln Sie mit uns aus einer Geschäftsidee ein digitales Produkt.Info und
Kontakt Consist Software Solutions GmbH Christianspries 4, 24159 Kiel E-Mail:
mueller-lupp@consist.de Telefon: +49 (0)4 31 / 39 93 – 565 Weitere Informationen:
www.consist.de/agil830005194041_830005195194041_PR_plus_Anzeige.indd
1830005194041_830005195194041_PR_plus_Anzeige.indd 1 16.03.21 12:2516.03.21 12:25Digitalisierung
mit Wow-Effekt in Wirtschaft zwischen Nord- und Ostsee, April 2021 Digitalisierung mit Wow-Effekt
in Wirtschaft zwischen Nord- und Ostsee, April 2021 Adobe InDesign 16.1 (Macintosh) Adobe PDF
Library 15.0
Fachbeitrag DevOps in JavaSPEKTRUM 6_2020 (pdf)
DevOps – Patterns und Praktiken InterviewAndré Christ, Gründer von LeanIX über die zentrale Rolle
der Architektur und den Wandel zur produktorientierten ITFachthemenEin Architekturstack für Data
Science mit Java, Python und JavaScript Lösung für die Digitalisierung mithilfe der richtigen
ArchitekturG3 0325 www.javaspektrum.de Ausgabe 6/2020 D € 9,90 · A € 10,90 · CHF 18,20De vOps – P
at te rn s und Pr akti ke n Magazin für professionelle Entwicklung und digitale
TransformationSonderbeilage: German Testing Magazin „Lean Quality Management“Wie DevOps mit
Kubernetes Qualitätssicherungen ermöglichtAutomatische Verteilung von Microservices – ein
Praxisbericht Son derdruck fürSonderdruck aus JavaSPEKTRUM 6/2020Ganz automatisch DevOps in der
Praxis – Microservices verteilen mit Terraform Matthias HänsgenDie Verteilung von Microservices ist
eine komplexe Herausfor derung, die nur vollautomatisiert effizient erfolgen kann. Ma nuelle
Arbeitsschritte innerhalb dieses Prozesses sind langsam und fehleranfällig und stellen somit ein
grundlegendes Pro blem dar. Eine Lösung ist der Einsatz von InfrastructureasCode
(IaC)Werkzeugen zur Automatisierung dieses Prozesses. Der Artikel stellt eine Best Practice zur
Verteilung von Microservices mit Fokus auf Spring Boot und Terraform vor.Auch in der Welt der
monolithischen Softwarearchitekturen stellt sich der Softwareverteilungsprozess als ein komplexer
Vorgang dar. In der Zeit vor DevOps war dieser Prozess durch die folgenden Randbedingungen
geprägt: Trennung der Verantwortlichkeiten zwischen Entwicklung (Dev) und Betrieb (Ops), was in
der Realität zu entsprechenden Rei- bungsverlusten führte, langwierige Prozesse zur Beschaffung,
Installation und dem Management von Hardware, viele manuelle Prozess-Schritte, die langsam,
fehleranfällig und oftmals nicht sicher reproduzierbar waren, langer Zeitraum bis zur
Produktivsetzungen einer neuen Soft- wareversion (Time-to-Market), nur wenige Releases pro Jahr
mit einem hohen Fehlerrisiko.Die Herausforderungen bei der Softwareverteilung von MicroservicesIn
einer Microservices-Architektur potenziert sich dieses Problem, da nicht ein Service (Monolith) mit
allen seinen beteiligten Komponenten (z. B. Datenbank) betrieben werden muss, sondern in Services.
In der Praxis verschärft sich dieses Problem noch, da nicht nur eine Instanz der Applikation pro
Release ausgerollt werden muss, sondern viele (Testumgebung Entwickler, Testumgebung Fachbereich,
Produktivum- gebung, ggf. mit Blue-Green-Deployment usw.). Hieraus ergibt sich für den
Produktivbetrieb von Microservices-Applikationen die zwin- gende Notwendigkeit einer
automatisierten Softwareverteilung. Basis hierfür sind die Konzepte und Werkzeuge aus der
DevOps-Bewegung.IaC: der Schlüssel zur Automatisierung Die Kernidee hinter Infrastructure as Code
(IaC) ist, dass sich jede Infrastrukturkomponente durch Software erzeugen, konfigurieren und
zerstören lässt. Dieser Ansatz eröffnet völlig neue Möglichkei- ten für die Softwareverteilung und
den Betrieb von Applikationen, da sich diese Prozesse nun vollständig durch Software automati-
sieren lassen. Grundlage hierfür sind IaC-Werkzeuge, die die fol- genden Aufgaben
unterstützen:(Copyright/Quelle: ©Tierney - stock.adobe.com)SCHWERPUNKTTHEMA2 JavaSPEKTRUM 6/2020
Konfigurationsmanagement, Server Templating, (Anwendungs-)Orchestrierung, Provisionierung von
Ressourcen. Konfigurationsmanagement-Werkzeuge dienen zur Installation und zum Management von
Software auf bestehenden Servern. Sie stellen sicher, dass auf einem Server die richtige Software
in der richtigen Version und in der richtigen Konfiguration vorhanden ist.
Server-Templating-Werkzeuge dienen zur Erstellung eines Server- oder Container-Images mit einem
spezifischen Soft- wareinstallationsstand. Beide Werkzeugtypen dienen prinzipiell demselben Zweck,
einen Server/Container in einem spezifischen Softwarestand bereitzustellen. Sie unterscheiden sich
aber in der Arbeitsweise und dem Zustand der erzeugten Infrastruktur.Ein Orchestrierungswerkzeug
organisiert und koordiniert den Betrieb der verschiedenen Einzel-Services/-Dienste, aus denen eine
gesamte Applikation besteht. Hierzu gehören Aufgaben wie das Ausrollen von Softwareversionen,
Lastverteilung, Skalierung, Überwachung und Neustart von Services.Die Erzeugung von
Infrastrukturkomponenten wie Servern, Netzwerken, Datenbanken, Caches usw. erfolgt mittels speziel-
ler Provisionierungswerkzeuge. Diese Werkzeug-Palette bildet die Grundlage für die Automatisierung
der Softwareverteilung. Für die zielgerichtete Auswahl eines (oder mehrerer) IaC-Werkzeuge ist ei-
ne Betrachtung der wesentlichen Differenzierungsmerkmale von grundlegender Bedeutung (s. Abb.
1).IaCWerkzeuge – Was sind die prinzipiellen Unterschiede? Aus dem Blickwinkel der automatisierten
Softwareverteilung sind die folgenden Kriterien von maßgeblicher Relevanz für die Bewer- tung von
IaC-Werkzeugen: Welche Funktionalitäten zur Provisionierung und Konfiguration bietet ein
Werkzeug? Ist die erzeugte Infrastruktur veränderbar oder nicht? Auf welchem
Programmier-Paradigma basiert das Werkzeug? Erfordert das Werkzeug die Installation zusätzlicher
Software für den Betrieb? Wie ausgereift und verbreitet ist das Werkzeug?Die Grenze zwischen
Konfigurationsmanagement- und Provisionie- rungswerkzeugen ist fließend. Jeder der beiden Typen
bietet auch Funktionalitäten des jeweils anderen Typs an. Basis für eine Automa- tisierung der
Softwareverteilung ist ein Provisionierungswerkzeug, das in der Lage ist, für die Ziel-Plattform
(z. B. AWS Cloud) alle benö- tigten Infrastrukturkomponenten bereitzustellen und zu verwalten. Wenn
dieses Werkzeug darüber hinaus grundlegende Konfigurations- management-Funktionalitäten bietet,
kann auf ein zusätzliches Kon- figurationsmanagement-Werkzeug verzichtet werden. Hierdurch wird in
der Praxis der Softwareverteilungsprozess vereinfacht.Wie bereits beschrieben, dienen sowohl
Konfigurationsma- nagement-Werkzeuge als auch Server-Templating-Werkzeuge der Bereitstellung von
Servern/Container mit einem definierten Soft- warestand. Sie unterscheiden sich aber in der
Arbeitsweise, da die über Konfigurationsmanagement-Werkzeuge erstellten Komponen- ten veränderbar
sind, die über Server Templating erzeugten nicht (immutable). Der Ansatz auf Basis von „Immutable
Infrastructure“ sorgt in der Praxis für Klarheit, da immer ein definierter, reprodu- zierbarer
Stand in Betrieb ist. Unbeabsichtigte, manchmal subtile Konfigurationsänderungen mit Seiteneffekten
an einem Produk- tivsystem werden hierdurch vermieden.IaC-Werkzeuge nutzen zur Automatisierung von
Funktionalitä- ten eine Programmiersprache. Hierbei kommen die folgenden Pro- grammier-Paradigmen
zum Einsatz: Prozedurale Programmierung Deklarative Programmierung Die prozedurale Programmierung
definiert die (Arbeits-)Schrit- te, wie ein bestimmtes Ergebnis erreicht wird (z. B.: Erzeuge ei-
nen Server vom Typ X). Bei der deklarativen Programmierung steht die Beschreibung des
Ergebnisses/Problems im Vordergrund (z. B.: Es sollen immer 5 Server-Instanzen vom Typ X vorhanden
sein). Da Infrastrukturkomponenten in großem Maße zustandsbehaftet sind, ist die prozedurale
Programmierung für diesen Anwendungs- fall deutlich komplexer und schlechter zu modularisieren als
eine deklarative Lösung. Deklarative Programmierung basiert auf einer umfassenden Abstraktion des
zugrunde liegenden Problems, was eine längere Einarbeitung erfordert als der Einstieg in eine
proze- durale Programmiersprache. Nachdem die Einstiegshürde für eine deklarative
Programmiersprache erklommen wurde, führt dies in der Praxis aber zu einfacherem und wartbarerem
Code.Einige Werkzeuge erfordern die Installation von zusätzlicher Software unter anderem auf den
administrierten Servern. Hier- bei kann es sich um einen zusätzlichen Master-Server handeln, der
Informationen zentral bereitstellt und verwaltet, oder auch um Agenten, die auf den jeweiligen
Servern installiert werden müssen. Ein solcher Ansatz bedingt immer zusätzliche Wartungsaufwände
für den Betrieb dieser Komponenten und erzeugt darüber hinaus ein zusätzliches, potenzielles
Sicherheitsrisiko durch eine vergrö- ßerte Angriffsfläche.Neben den rein technischen Aspekten eines
Werkzeugs sind da- neben auch die Ausgereiftheit und dessen Zukunftsperspektiven von Bedeutung.
Indikatoren hierfür sind die Verbreitung des Pro- dukts, die Größe und Agilität der Community und
wie lange ein Produkt bereits im praktischen Einsatz ist.Die Eignung und Bewertung eines
spezifischen Werkzeugs ist in hohem Maße von den Charakteristika des zu automatisierenden Szenarios
abhängig. Grundlegende Faktoren sind hierbei die Ziel- Matthias Hänsgen arbeitet als Sys-
temarchitekt für die Consist Software Solutions GmbH. Seit über 25 Jahren entwickelt er
geschäftskritische An- wendungen auf Basis von objektorien- tierten Technologien. Sein aktueller
Tätigkeitsschwerpunkt liegt in der Entwicklung von Microservices-An- wendungen. E-Mail:
haensgen@consist.deAbb. 1: Exemplarische Übersicht IaC-WerkzeugeSCHWERPUNKTTHEMAwww.javaspektrum.de
3plattform, auf der eine Applikation betrieben werden soll, und deren Architektur.Die Basis
Entscheidung für eine Microservices Architektur Die Wahl einer konkreten Architektur ist immer
eine sehr individu- elle Entscheidung eines Unternehmens. Sie wird sowohl geprägt durch deren
Historie (z. B. Programmiersprachen-Know-how) als auch durch aktuelle Rahmenbedingungen (was
fordert der Markt, Plattformen bei Kunden usw.). In dem Anwendungsfall stellten sich die
Rahmenbedingungen wie folgt dar: langjähriges Know-how in Projekten, basierend auf dem Spring
Framework, die Kunden nutzen sowohl monolithische als auch Microser- vices-basierte Lösungen in
Abhängigkeit von der Projektgröße, fundiertes Know-how in der Entwicklung von User Interfaces auf
Basis von Angular, die Applikationen werden derzeit sowohl On-Premise als auch in der Cloud
betrieben.Basierend auf diesen Prämissen, wurde eine (Microservices-)Archi- tektur und
Zielplattform (s. Abb. 2) mit den folgenden Eckpunkten definiert: Nutzung von Spring Boot sowohl
zur Entwicklung monolithi-scher Applikationen (kleine Anwendungen) als auch von Micro-
services-Applikationen (große Anwendungen), Angular als User Interface Framework, Docker als eine
einheitliche (Container-basierte) Laufzeitumge- bung für alle Zielplattformen (On-Premise, Cloud),
Kundenspezifische Docker-basierte Orchestrierungsplattform.Der Einsatz von Spring Boot bietet den
Vorteil, für die unterschied- lichen Applikationsarchitekturen ein einheitliches Framework ein-
zusetzen. Cloud-Spezifika können mittels Spring Cloud abgebildet werden.Der Einsatz von Docker ist
ein leichtgewichtigerer Ansatz als die Verwendung von virtuellen Maschinen und reduziert den Over-
head in den Entwicklungszyklen durch kürzere Erzeugungszeiten für die Docker Images und durch
kürzere Startzeiten. Darüber hin- aus bietet dieser Ansatz den Vorteil, dass die Betriebssystemspe-
zifika abstrahiert werden und die erzeugte Laufzeitumgebung im- mutable ist (in Analogie zu Server
Templating).Die Orchestrierungsplattform einer Applikation hat in der Pra- xis die größten
Auswirkungen auf deren Betrieb. Eine umfassen-de Plattform bietet umfangreiche Funktionalitäten wie
automati- sches Deployment ohne Unterbrechung, automatisierte Skalierung, Überwachung und
gegebenenfalls Neustarten von defekten Kom- ponenten. Diese Funktionalitäten sind nur aufwendig
selbst zu re- alisieren, sodass der Einsatz einer Orchestrierungsplattform für ei- ne
Microservices-Architektur ein Muss ist. Für Kubernetes spricht die Verfügbarkeit auf vielen
Cloud-Plattformen als SaaS und die Möglichkeit, alternativ für eine On-Premise Lösung selbst ein
Kubernetes Cluster zu betreiben. Ein Manko hierbei ist die Kom- plexität der Installation und des
Betriebs eines solchen Clusters On-Premise.Im nächsten DevOps-Schritt muss nun für diese konkrete
Anwendungsarchitektur und Laufzeitumgebung im Rahmen der CI/CD-Aktivitäten eine automatisierte
Softwareverteilung konzi- piert werden.Die passende Plattform für die automatisierte
Softwareverteilung Die Auswahl einer spezifischen Plattform mit ihren Werkzeugen ist in hohem Maße
von den individuellen Prioritäten eines Unterneh- mens/Teams abhängig. In diesem Anwendungsfall
waren die wich- tigsten Einflussfaktoren die folgenden: Die Infrastruktur soll aus
Robustheitsgründen „immutable“ er-zeugt werden. Einfachheit der Lösung – möglichst wenige
Standard-Werkzeu- ge mit einem geringen Anteil an Individuallösungen und An- passungen. Ein
einheitliches Verfahren und Werkzeug-Set für alle Ziel-Platt- formen (On-Premise, verschiedene
Cloud-Anbieter). Automatisierung des CI-/CD-Prozesses auf Basis des Open-
Source-Automation-Servers Jenkins.Da durch die Architekturentscheidung bereits der Fokus auf dem
Einsatz von Server Templating gerichtet war, hat das Konfigurati- onsmanagement bei der
Entscheidung für eine Werkzeug-Lösung nur eine untergeordnete Rolle gespielt. Kern der
Automatisierung ist ein leistungsfähiges Provisionierungswerkzeug. Die Entschei- dung für Terraform
basierte hierbei auf den folgenden Gründen: Nutzung einer deklarativen Programmiersprache,
Erzeugungsmöglichkeiten für alle benötigten Infrastruktur-komponenten (z. B. Datenbanken,
Cloud-Ressourcen usw.), Unterstützung verschiedener Cloud-Anbieter,Abb. 2: Exemplarische Micro-
services-ArchitekturAbb. 3: Exemplarische Plattform für die automatisierte Softwarever-
teilungSCHWERPUNKTTHEMA befriedigende Konfigurationsmanagement-Funktionalitäten. Als
unterstützendes Server-Templating-Werkzeug zur Bereitstel- lung von Kubernetes On-Premise wurde
aufgrund der Eignung für den Produktivbetrieb und der Erzeugung von Immutable-Infra- strukturen
Packer ausgewählt (s. Abb. 3).Best Practice – Terraform in der Praxis Die Praxis hat gezeigt, dass
für einen effektiven Terraform-Ein- satz die Beachtung der folgenden Punkte von grundlegender Be-
deutung ist.Terraform State File und Remote Backends Terraform speichert den Zustand seiner
Ausführung und damit auch den Zustand der provisionierten und konfigurierten Infrastruktur in einem
State File. Die Verfügbarkeit und Integrität dieser Datei ist von zentraler Bedeutung für
Terraform. Für Produktivumgebun- gen oder Umgebungen, auf die mehrere Personen administrativen
Zugriff haben, muss diese Datei an einer zentralen, sicheren Stelle gespeichert werden. Das
bedeutet, dass der State File geschützt werden müssen vor versehentlichen Änderungen,
gleichzeitigem Zugriff mehrerer Benutzer und unbefugter Einsicht in die im Klar- text enthaltenen
Passwörter. Hierfür bietet Terraform vorgefertig- te Remote Backends, die die sichere Speicherung
in verschiedenen Umgebungen ermöglichen (z. B. AWS S3 Bucket).Abbildung von Stages in Terraform In
einem nächsten Schritt muss konzeptionell das Problem der Handhabung der State Files für die
verschiedenen Stages einer Applikation gelöst werden. Ein Ansatzpunkt hierfür ist die Nut- zung von
Terraform-Workspaces zur Abbildung der verschiede- nen Stages. Der Nachteil hierbei ist, dass alle
Workspace-Varian- ten/Stages als verschiedene State Files innerhalb eines zentralen Remote Backends
gespeichert werden – das heißt, es gibt zum Beispiel keine physische Trennung zwischen Test- und
Produk-tions-Stage. Eine Abbildung von Stages für den Produktivbetrieb mittels Workspaces ohne
zusätzliche Maßnahmen ist nicht empfeh- lenswert, da keine echte Isolation der einzelnen Stages
gegeben ist. Hierdurch kann bereits durch eine kleine Unachtsamkeit ein Ausfall des gesamten
Produktivsystems erfolgen.Die einfachste Lösung für dieses Problem ist die Abbildung und Isolation
der einzelnen Stages über eine Terraform-Directo- ry-Struktur mit je einem Subdirectory pro Stage.
Jedes Stage-Sub- directory enthält den Terraform-Sourcecode für die jeweilige Stage und es wird bei
der Terraform-Ausführung jeweils ein separater Re- mote State File erzeugt, der auch über eine
eigene Autorisierung verfügen kann (z. B. Trennung Zugang Test-System/Produktiv-Sys- tem). Ohne
weitere Maßnahmen würde dieser Ansatz jedoch zu ei- ner erheblichen Code-Duplizierung zwischen den
einzelnen Stages führen. Um dies zu verhindern, bietet Terraform den Modul-Mecha- nismus
an.TerraformModule Terraform-Modules (s. Abb. 4) unterstützen die Möglichkeit, Funk-
tionsbibliotheken mit wiederverwendbaren Bausteinen aufzu- bauen. Im konkreten
Microservices-Anwendungsfall wurden zur Strukturierung des Terraform-Codes die folgenden
Modul-Typen verwendet: Resource-Definition-Modul, Infrastructure-Layer-Modul,
Microservices-Modul. Resource-Definition-Module dienen der zentralen Definition von Ressourcen, die
Microservices übergreifend genutzt werden. Im konkreten Fall, der in einer Amazon-AWS-Umgebung
betrieben wird, fallen hierunter zum Beispiel die Definitionen von zent- ralen Message-Queues für
den Datenaustausch zwischen Micro- services.Die Infrastructure-Layer-Module dienen dazu, die
verschiede- nen Schichten (Netzwerk, Security, Datenbank, eigentliche Ap- plikation) einer
Applikation abzubilden. Da die Erzeugung von Abb. 4: Aufbau Terraform-ModulAufbau Terraform Modul•
Jedes Verzeichnis in einem Terraform-Projekt ist ein Modul• Jedes Modul hat • Eingangsparameter
(variable), • Ausgangsparameter (output) und • Ressourcendefinitionen (resource).// define input
parameter variable "service_name" {description = "the name of the service" } resource "
aws_ecs_service" "ecs_service_template" {name = var.service_name // uses variable ... // more
parameters must be defined ... } // define output parameter output "service_arn" { // ressources
can be referenced by its name value = aws_ecs-service.ecs_service_template.service_name description
= "the name of the service"}// create ecs-service module “service1" {source =
"templates/ecs-service" service_name = "myService1"}Modul-Definition in
./templates/ecs-service/main.tfModul-Verwendung in
./services/service1/ecs-service.tfSCHWERPUNKTTHEMAInfrastrukturkomponenten und Datenbanken in der
Regel zeit- aufwendig ist, bietet es sich unter anderem zur Beschleunigung von Entwicklertests an,
auch die Terraform-Module zu „schichten“. Hierdurch ist es zum Beispiel beim Testen möglich, nur
die Appli- kationsschicht zu zerstören und neu zu deployen – ohne die unter- liegende Infrastruktur
zeitaufwendig neu zu erzeugen (s. Abb. 5).Die Layer unter infrastructure-layer müssen der
Reihenfolge nach aufsteigend ausgeführt werden, um eine Anwendungsinstanz auf- zubauen, und in der
umgekehrten Reihenfolge ausgeführt werden, um die Instanz wieder abzubauen. Dazu werden die
Terraform-Be- fehle apply und destroy in jedem Layer-Verzeichnis/Modul ausge- führt.Die
Microservices-Module beinhalten alle Terraform-Definitionen für die konkreten
Microservices-Komponenten, die nicht über die In- frastructure-Layer- und
Resource-Definition-Module bereitgestellt werden (jeder Microservice ist hierbei ein eigenes
Modul). Zur Mi- nimierung der Cloud-Kosten im Rahmen von Entwicklertests wurden die Layer
03_persistence und 04_application separiert, sodass die Ap- plikation gestoppt/zerstört werden
kann, ohne die Daten zu ver- lieren.Die Versorgung der einzelnen Terraform-Module mit Ausgabe-
parametern aus anderen Modulen in einer Remote-Backend-Umge- bung wurde durch die Verwendung von
Terraform-Remote-State- Data-Sources gelöst.Terraform – SourcecodeManagement und Versionierung Der
Terraform-Sourcecode muss wie jeder andere produkti- ve Sourcecode vollständig und versioniert in
einem Source- code-Management-System verwaltet werden (z. B. Git). Darüber hinaus bietet Terraform
die Möglichkeit, seine eigenen Module als Git-Module zu verwalten. So können Terraform-Module di-
rekt über entsprechende Git-Referenzen miteinander verbunden werden. Im konkreten Fall wurden von
einem Kernteam komple- xe Infrastruktur-Basis-Funktionalitäten als zentrale Terraform Module
entwickelt und in einem Git-Repository zur Verfügung gestellt. Diese Module wurden dann von den
Entwickler-Teams zur Erstellung der Microservices-spezifischen Terraform-Module genutzt.Terraform –
Was ist sonst noch zu beachten? Die sichere, verschlüsselte Speicherung von Autorisierungsinforma-
tionen (z. B. Datenbank-Benutzer und dessen Passwort) im Rahmen einer automatisierten
Softwareverteilung ist ein prinzipielles Prob- lem. Terraform unterstützt dies durch die Anbindung
verschiedener, sicherer Speichermedien (z. B. AWS Secrets Manager). Ein weiterer Punkt, der für
Produktivumgebungen berücksichtigt werden muss, ist, dass persistente Informationen wie
Datenbankinhalte, Logda- teien usw. beim Zerstören der Umgebung erhalten bleiben müssen.Für die
Entwicklung und das Testen von Terraform ist die Erken- nung von Abweichungen an einer deployten
Stage in Bezug zur de- finierten Konfiguration (Drift) nützlich. Terraform unterstützt die
Erkennung durch den Befehl terraform refresh.Abschließend sei noch erwähnt, dass eine
produktionsreife, au- tomatisierte Softwareverteilung generell ein (zeit-)aufwendiges Unterfangen
ist. Erste Erfolge, indem man „schnell“ eine kleine Ap- plikation ausgerollt hat, täuschen oft. Um
die Softwareverteilung einer durchschnittlichen Applikation in der Praxis vollständig und stabil zu
automatisieren, vergehen in der Regel mehrere Monate.Fazit und Ausblick Der vorliegende Artikel
beschreibt anhand eines Praxisbeispiels auf Basis von Spring Boot, wie eine
Microservices-Applikation au- tomatisiert verteilt und betrieben werden kann. Schlüssel hierfür ist
der Einsatz von IaC-Werkzeugen für die Erzeugung, Konfigurati- on und das Zerstören „beliebiger“
Infrastrukturkomponenten mit- tels Software. Kernidee der Lösung ist der Einsatz von Server
Templating zur Erzeugung von Immutable Infrastructure. Hierdurch kann auf ein zusätzliches,
dediziertes Konfigurations-Management-Werkzeug verzichtet werden, was die Gesamtlösung technisch
vereinfacht. Die Provisionierung und Konfiguration der Applikations-Ressour- cen erfolgt mittels
Terraform. Ausschlaggebend für die Auswahl ist das Terraform-Provider-Konzept, das transparent den
Betrieb der Applikation auf unterschiedlichen (Cloud-)Zielplattformen un- terstützt.Die Grundlage
der Best Practice beim Einsatz von Terraform ist die Verwendung einer Directory-Struktur, die die
einzelnen Sta- ges einer Applikation isoliert, um somit Seiteneffekte im Betrieb zu verhindern.
Darüber hinaus ist die Nutzung des Terraform-Mo- dul-Konzepts zur Erzeugung von wartbarem Code und
zur Vermei- dung von Code-Duplizierung von fundamentaler Bedeutung. Im Praxisbeispiel wurden Module
zur Definition von wiederverwendba- ren Ressourcen, von Infrastruktur-Komponenten in Form von Lay-
ern und zur Beschreibung vollständiger Microservices verwendet.Durch die DevOps-Bewegung und den
Einsatz von IaC hat sich in den letzten Jahren bereits eine dramatische Verbesserung be- züglich
Geschwindigkeit, Häufigkeit und Qualität der Softwarever- teilung ergeben. Da die Entwicklung in
diesem Bereich rasant ver- läuft, ist sicherlich auch in den nächsten Jahren mit spannenden
Neuerungen zu rechnen.Literatur und Links [Bri19] Y. Brikman, Terraform: Up & Running, 2nd
Edition, O'Reilly Media, Inc., 2019 [Kim16] G. Kim, J. Humble, P. Debois, J. Willis, The DevOps
Handbook, IT Revolution Press, 2016 [Tur17] J. Turnbull, The Packer Book, Turnbull Press, 2017Abb.
5: Terraform-Module - BeispielstrukturSCHWERPUNKTTHEMA6 JavaSPEKTRUM 6/2020Adobe InDesign 14.0
(Macintosh) Adobe PDF Library 15.0
Flyer Cloud Services von Consist - eingesetzte Technologien (pdf)
Cloud Services von Consist – eingesetzte Technologien Der fortschreitende digitale Wandel in
Unternehmen hat in den letzten Jahren eine IT-Modernisierungs- welle ausgelöst – von
IT-Legacy-Systemen hin zu modernen und cloudbasierten IT-Systemen. Wir unter- stützen Sie umfassend
bei der Transformation Ihrer IT in die Cloud.Cloud-Leistungen von Consist Cloud-Architektur und
-Orchestrierung Modernisierung von Business-Applikationen • Betrieb der IT-Systeme in Hybrid-
oderMulti-Cloud• Automatisierung von Prozessen• Migration• Reengineering• individuelle
Erweiterungen• Automatisierung von FachprozessenIT- und Datensicherheit in der Cloud
Unternehmensdaten in der Cloud• Betrieb sicher und compliant • Einheitliche Datenbasis für
umfassende Analysen Technischer Fokus in den Kundenprojekten Consist setzt seit vielen Jahren
erfolgreich Cloud-Projekte um. Diese Kundenprojekte sind unter fol- genden Rahmenbedingungen
realisiert worden:Cloud-Anbieter Identity-Mangement Agile Softwareentwicklung• Amazon Web Services
(AWS)• Microsoft Azure• Okta• Amazon Cognito• Kollaboration: Atlassian Confl uence• Projekt-Planung
und -Verfolgung: Atlassian JiraDigitale TransformationDevOps-Technologien in Cloud-Projekten In
Cloud-Projekten setzen wir auf die DevOps-Methodik, die eine enge Zusammenarbeit aller Beteiligten
ermöglicht und dadurch schnell qualitativ hochwertige Ergebnisse liefert. Technisch unterstützen
wir diesen Prozess durch automatisierte Continuous-Integration-/Deployment-Prozesse, basierend auf
der Open-Source-Lösung Jenkins.Continous Integration / Deployment Pipeline1. Code 2. Build 3. Test •
Server-Centric: Java - Spring Boot / Cloud• Serverless: AWS Lambda (Java, Typescript)• User
Interface: Angular• Versionsmanagement: Git• Buildmanagement: Maven, npm• Unit-Tests Server-side:
Junit, Spring Test support, Hamcrest• Unit-Tests UI: Jasmine, Karma• Integration-Tests: Cucumber
(REST-Client für Service- Tests, Selenium für UI-Tests)4. Package 5. Release 7. Monitor•
Container-Virtualisie- rung: Docker• Container-Orchestrie- rung: Kubernetes, Amazon ECS • Jenkins
via Skript • Logging: Distributed Logging (Spring cloud sleuth / zipkin), LogAggregation•
Monitoring: AWS CloudWatch, AWS X-Ray, Splunk, Elastic Stack6. Configure• Provisionierung und
Configuration-Manage- ment: TerraformDigitale TransformationConsist Software Solutions
GmbH · Christianspries 4 · 24159
Kiel · www.consist.deIhr Kontakt: Dr. Thomas Müller-Lupp0431 3993-565
mueller-lupp@consist.deIhr Kontakt: Michael Meisner0431 3993-671 meisner@consist.deFlyer Cloud
Services von Consist - eingesetzte Technologien Flyer Cloud Services von Consist - eingesetzte
Technologien Adobe InDesign CS6 (Macintosh) Adobe PDF Library 10.0.1
Flyer IT-Security web (pdf)
Sprechen Sie uns an: info@consist.deTop-Lösungen gegen Cyber-Angriffe Managen Sie Ihre IT-Risiken
in Echtzeit!Angesichts der ständig zunehmenden Datenmenge, der rasant steigenden Vernetzung von
Informa- tionen und stets neuer Sicherheitsbedrohungen und -vorschriften wird IT-Security für
Unternehmen immer wichtiger. Sie müssen die eigenen Netze und Daten bestmöglich sichern und
gleichzeitig ihre Sicherheitslage lückenlos dokumentieren. Consist bietet Ihnen hierfür innovative,
umfassende Lösungen einschließlich der begleitenden Services. ProjekteUnsere Leistungen
Entdecken, Reagieren, Dokumentieren Unsere Security-Lösungen lassen Sie interne und externe
Angriffe in Echtzeit erkennen und regelbasiert abwehren. Automatisch entsteht dazu eine
vollständige Dokumenta- tion. Zertifi zierte Consultants Für Ihre Security-Projekte stehen
erfahrene, zertifi zierte Consultants bereit. Bewährte Standardlösungen Wir nutzen ausschließlich
bewährte Tools für Ihre Security-Projekte: Splunk ObserveIT IntellinXIhr Nutzen Risiken
reduzieren Sie schützen Ihr Unternehmen vor Cyber- Angriffen von innen und außen – systemü-
bergreifend und ganzheitlich. Compliance-Aufl agen erfüllen Sie erfüllen umfassend die Aufl agen
aus Compliance und Risikomanagement. Sicherheit schnell erreichen Leistungsstarke, in der Praxis
bewährte Lö- sungen ermöglichen Ihnen die Umsetzung in kürzester Zeit. Ihr Kontakt:
info@consist.de, 0431 / 3993-672 Consist Software Solutions GmbH, Falklandstr. 1-3, 24159 Kiel,
www.consist.deEine gute WahlÜber 30 Jahre Erfahrung in erfolgreicher Softwareentwicklung und
-wartung, Know-how in ganz unterschiedlichen Branchen und Technologien, Herstellerneutralität und
eine ausgeprägte Kümmerer-Mentalität – all das bietet Ihnen Consist. Sie können sich auf uns
verlassen, denn wir leben die Übernah- me von Verantwortung als Ihr Partner. Ihr IT-Partner Consist
Software SolutionsWir sind darauf spezialisiert, Ihre IT-Bedürfnisse zu erkennen und Sie mit
passender Software und maß- geschneiderten Services zu unterstützen: ganz gemäß unserem Motto IT
that works. Projekte In time. In budget. In quality.Managed Services Software und Systeme in besten
Händen.Produkte Mit Sicherheit eine innovative Lösung.untitled Acrobat Distiller 15.0 (Windows)
Flyer Managed Services 2019 (pdf)
Sprechen Sie uns an: info@consist.deLegacy-Systeme in besten Händen Consist Managed
ServicesSoftware-/Systembetreuung: Sie erhalten ein Dienstleistungsmodell, das durch
Verantwortungsüber- nahme nicht nur verlässlich und effi zient, sondern auch transparent und
kontrollierbar ist. So entsteht Vertrauen in der Zusammenarbeit. Profi tieren Sie von unserer
jahrelangen Erfahrung.Managed ServicesManaged Services bei Consist Wir übernehmen Anwendungen,
die Sie nicht mehr betreuen können oder wollen Wir übernehmen Ihre Abläufe und Prozesse, beraten
und unterstützen Sie bei Neuerungen Wir entwickeln und verbessern Ihre Legacy- Anwendungen nach
Ihrem Bedarf Ihre Datenbanken sind bei uns in guten Händen Arbeitsvorbereitung kennen und
können wir Komplexe Fachlichkeit mögen wir Unsere Teams haben eine gemischte Altersstruktur
Wir arbeiten erfolgreich Studien- abgänger in die klassischen Welten einIhr Nutzen Sichere und
zeitgerechte Übernahme der Fachthemen Qualitätsgesicherter Betrieb Ihrer Legacy- Applikationen
bis zu deren Einstellung Optimierung, Weiterentwicklung und Migration der Applikationen bei
Bedarf Flexible Vertragslaufzeiten und ein transparentes Abrechnungsmodell„What is a defi nition
of a legacy system? One that works!“(David Mount, University of Maryland)Das
Consist-Legacy-Portfolio – Wählen Sie Ihre Kombinationuntitled Acrobat Distiller 15.0 (Windows)